10 2019 档案

摘要:1.首先在 application,yaml中添加 logging: config: classpath:logback-spring.xml 2.之后在resources中添加 logback-spring.xml。因为最后被java编译后的路径是 上述配置的。见图: 之后日志便会每天进行压缩。如 阅读全文
posted @ 2019-10-31 20:33 _Meditation 阅读(383) 评论(0) 推荐(0) 编辑
摘要:早上:一. 爱奇艺的大数据中台战略: a) 介绍爱奇艺的产业文化。b) 通过大中台,可以进行部分数据的沉淀,用于后续的分析处理等等.. 从数据中台和业务中台,建立一种“苹果园“的生态系统。从原始的长视频逐渐推测用户的兴趣爱好,进行新功能的开发,创建“苹果园”。 中台战略主要从三个方面进行解释: 数字 阅读全文
posted @ 2019-10-31 20:26 _Meditation 阅读(558) 评论(0) 推荐(0) 编辑
摘要:一。概述 提出了新的一种通过pattern来减少远程监督中的噪声。ARNOR认为一个可以信赖的关系的标签可以被神经网络解释的。ARNOR框架迭代的去学习一个可以解释的模型并利用它去选择新的可以信赖的实例。本文作者提出通过pattern来进行确定信赖的关系标签。 二。现状分析 在远程监督提出后,差不多 阅读全文
posted @ 2019-10-30 18:55 _Meditation 编辑
摘要:###仅为自己练习,没有其他用途 1 import torch 2 import torch.nn as nn 3 import torch.utils.data as Data 4 import torchvision 5 import matplotlib.pyplot as plt 6 fro 阅读全文
posted @ 2019-10-29 18:23 _Meditation 阅读(431) 评论(0) 推荐(0) 编辑
摘要:上次通过pytorch实现了RNN模型,简易的完成了使用RNN完成mnist的手写数字识别,但是里面的参数有点不了解,所以对问题进行总结归纳来解决。 总述:第一次看到这个函数时,脑袋有点懵,总结了下总共有五个问题: 1.这个input_size是啥?要输入啥?feature num又是啥? 2.这个 阅读全文
posted @ 2019-10-29 18:15 _Meditation 阅读(4092) 评论(0) 推荐(1) 编辑
摘要:关于RNN模型参数的解释,可以参看RNN参数解释 ###仅为自己练习,没有其他用途 1 import torch 2 from torch import nn 3 import numpy as np 4 import matplotlib.pyplot as plt 5 6 # torch.man 阅读全文
posted @ 2019-10-29 17:42 _Meditation 阅读(387) 评论(0) 推荐(0) 编辑
摘要:###仅为自己练习,没有其他用途 1 import torch 2 from torch import nn 3 import torchvision.datasets as dsets 4 import torchvision.transforms as transforms 5 import m 阅读全文
posted @ 2019-10-29 16:00 _Meditation 阅读(595) 评论(0) 推荐(0) 编辑
摘要:###仅为自己练习,没有其他用途 1 # library 2 # standard library 3 import os 4 5 # third-party library 6 import torch 7 import torch.nn as nn 8 import torch.utils.da 阅读全文
posted @ 2019-10-29 15:35 _Meditation 阅读(225) 评论(0) 推荐(0) 编辑
摘要:实验 同样用held-out以及P@N 结果如下: 从结果看, 本文的方法比Lin 2016 要好, 毕竟考虑了关系的依赖性,不过提升不是很明显,可能原因是数据问题,relation的overlapping比较少。 再看一组对比实验: 分别是去掉word-attention 以及去掉 relatio 阅读全文
posted @ 2019-10-28 14:04 _Meditation 阅读(291) 评论(0) 推荐(0) 编辑
摘要:这篇文章从另一个角度来解决Zeng 2015的问题,并且考虑了实体对的多关系的问题。 动机 Zeng 2015里面仅仅取置信度最高的instance,丢失信息。 在数据集中,有约18.3%的entity pair有多种relation, 其他方法均未考虑。 模型 针对以上的两个问题提出了两个解决方法 阅读全文
posted @ 2019-10-28 13:52 _Meditation 阅读(162) 评论(0) 推荐(0) 编辑
摘要:1 import torch 2 import torch.utils.data as Data 3 import torch.nn.functional as F 4 import matplotlib.pyplot as plt 5 import torch.optim 6 # torch.manual_seed(1) # reproducible 7 8 LR = ... 阅读全文
posted @ 2019-10-26 15:00 _Meditation 阅读(198) 评论(0) 推荐(0) 编辑
摘要:1 import torch 2 import torch.utils.data as Data 3 4 torch.manual_seed(1) # reproducible 5 6 BATCH_SIZE = 5 7 # BATCH_SIZE = 8 8 9 x = torch.linspace(1, 10, 10) # this is x data ... 阅读全文
posted @ 2019-10-26 14:05 _Meditation 阅读(917) 评论(0) 推荐(0) 编辑
摘要:1 import torch 2 import matplotlib.pyplot as plt 3 4 # torch.manual_seed(1) # reproducible 5 6 # fake data 7 x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) # x data (tensor), sha... 阅读全文
posted @ 2019-10-26 13:57 _Meditation 阅读(324) 评论(0) 推荐(0) 编辑
摘要:1 import torch 2 import torch.nn.functional as F 3 4 5 # replace following class code with an easy sequential network 6 class Net(torch.nn.Module): 7 def __init__(self, n_feature, n_hidd... 阅读全文
posted @ 2019-10-26 13:56 _Meditation 阅读(171) 评论(0) 推荐(0) 编辑
摘要:1 import torch 2 import torch.nn.functional as F 3 import matplotlib.pyplot as plt 4 5 # torch.manual_seed(1) # reproducible 6 7 # make fake data 8 n_data = torch.ones(100, 2) 9 x0 = to... 阅读全文
posted @ 2019-10-26 13:48 _Meditation 阅读(318) 评论(0) 推荐(0) 编辑
摘要:1 import torch 2 import torch.nn.functional as F 3 import matplotlib.pyplot as plt 4 5 # torch.manual_seed(1) # reproducible 6 7 x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) # x data (tensor 阅读全文
posted @ 2019-10-26 13:33 _Meditation 阅读(350) 评论(0) 推荐(0) 编辑
摘要:1 import torch 2 import torch.nn.functional as F 3 from torch.autograd import Variable 4 import matplotlib.pyplot as plt 5 6 # fake data 7 x = torch.linspace(-5, 5, 200) # x data (tensor), shape=(100, 阅读全文
posted @ 2019-10-26 13:24 _Meditation 阅读(354) 评论(0) 推荐(0) 编辑
摘要:1 import torch 2 from torch.autograd import Variable 3 4 # Variable in torch is to build a computational graph, 5 # but this graph is dynamic compared with a static graph in Tensorflow or Theano. 6 # 阅读全文
posted @ 2019-10-26 13:13 _Meditation 阅读(765) 评论(0) 推荐(0) 编辑
摘要:1 import torch 2 import numpy as np 3 4 # details about math operation in torch can be found in: http://pytorch.org/docs/torch.html#math-operations 5 阅读全文
posted @ 2019-10-26 13:12 _Meditation 阅读(280) 评论(0) 推荐(0) 编辑
摘要:(一)远程监督的思想 这篇论文首先回顾了关系抽取的监督学习、无监督学习和Bootstrapping算法的优缺点,进而结合监督学习和Bootstrapping的优点,提出了用远程监督做关系抽取的算法。 远程监督算法有一个非常重要的假设:对于一个已有的知识图谱(论文用的Freebase)中的一个三元组( 阅读全文
posted @ 2019-10-23 18:14 _Meditation 阅读(771) 评论(0) 推荐(0) 编辑
摘要:大致描述 这一篇工作是在Zeng 2014基础上的扩展,从Fully Supervised 到Distant Supervised. 动机 Distant supervised 会产生有大量噪音或者被错误标注的数据,直接使用supervised的方法进行关系分类,效果很差。 原始方法大都是基于词法、 阅读全文
posted @ 2019-10-23 18:10 _Meditation 阅读(445) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示