摘要:
从2018年Google提出BERT模型开始,transformer结构就在NLP领域大杀四方,使用transformer的BERT模型在当时横扫NLP领域的11项任务,取得SOTA成绩,包括一直到后来相继出现的XLNET,roBERT等,均采用transformer结构作为核心。在著名的SOTA机 阅读全文
摘要:
1.可用性 场景部分:用户购买商品 刺激源:用户 刺激:用户购买商品 制品:系统 环境:用户购买商品 响应:用户购买商品,系统提示购买成功 响应度量:正常生成订单,运送货物,用户可以正常收货 2.可修改性 场景部分:商品信息展示 刺激源:卖家 刺激:修改商品信息 制品:商品展示页面 环境:设计商品展 阅读全文
摘要:
今日详览了王概凯执笔的系列专栏——架构漫谈,逐步由浅入深讨论了架构的内涵,做好架构的途径,架构落地问题以及如何去编写优秀的程序。通过对该专栏的了解,我对架构有了新的认识与感悟。 首先需要知道的是,架构不仅仅存在于软件行业,大到一个国家,小到一个企业,组织,甚至是一段音乐,都有自己的架构,架构可以帮助 阅读全文
摘要:
空洞卷积(atrous convolution)又叫扩张卷积(dilated convolution),其实就是向卷积层引入了一个称为“扩张率(dilation rate)”的新参数,这个参数定义了卷积核处理数据时各值的间距。普通卷积和空洞卷积图示如下(以3*3卷积为例) (普通卷积) (空洞卷积) 阅读全文
摘要:
1*1shape的卷积在很多神经网络中都有应用(如Google InceptionNet,Resnet等),比起我们常见的2*2,3*3,5*5的卷积,这样的卷积核有什么作用呢? 首先,1*1的卷积可以增加网络层的非线性,它的卷积过程其实相当于全连接层的计算过程,并且还加入了非线性的激活函数(rel 阅读全文
摘要:
DQN是强化学习的系列方法之一。 这里简单介绍一下强化学习,强化学习是以一种不断“试错”的方式,通过与环境的交互获得的奖赏指导行为,从而使模型获得最大化奖赏,由于外部环境提供的强化信号仅仅是对模型动作的一种评价,强化学习必须靠自身的经历进行学习,通过这种方式,模型得以从行动-评价的环境中学到知识,从 阅读全文
摘要:
要求: 1.能够检测到理想的状态 2.可以多次尝试 3.系统的下个状态只与当前状态信息有关,而与更早之前的状态无关,在决策过程中还和当前采取的动作有关。 马尔科夫决策过程由五个元素组成: S:表示状态集(states) A:表示一组动作(actions) P:表示状态转移概率Psa表示在当前s∈S, 阅读全文
摘要:
在强化学习中,有这样几个概念: 智能体(Agent):我们要操控的对象 状态(State):当前智能体在环境中所处状态 行为(Action):当前智能体在当前状态下要进行的下一个动作 奖励(Reward):当智能体进行某一个操作时,对其该操作给出的评价 策略(Policy):为达到目标(最大化奖励) 阅读全文
摘要:
CGAN是最基础的GAN模型之一,全称conditional GAN,意为条件生成对抗网络。 先说一下GAN和CGAN的区别,最基本的GAN判别器只能判别真假,但无法对生成数据进行控制,即如果有两种以上类别的训练数据,那么GAN的生成器无法指定生成的数据,判别器也无法对真数据+假标签进行判别。为了解 阅读全文
摘要:
生成式对抗网络(GAN, Generative Adversarial Networks )是一种深度学习模型,是最近超级火的一个无监督学习方法,它主要由两部分组成,一部分是生成模型G(generator),另一部分是判别模型D(discriminator),它的训练过程可大致描述如下: 生成模型通 阅读全文