随笔分类 -  论文翻译及笔记

摘要:最近身边问NLP的人多了起来,索性针对BERT做个汇总。 阅读全文
posted @ 2021-09-24 16:49 小艾shea 阅读(68) 评论(0) 推荐(0) 编辑
摘要:在本文中,我们提出了一种多目标过滤和跟踪算法,该算法可以同时为所有目标学习运动模型。它通过隐式表示的状态图并执行时空数据预测来实现。为此, 在连续的假设目标空间上对多目标状态进行建模,使用随机有限集和高斯混 合概率假设密度公式(PHD)。使用具有长短期记忆架构的深度卷积递归神经网络递归执行预测步骤,该网络被训练为回归块,在运行中,概率密度差地图(PDD)。我们的方法在广泛使用的行人跟踪基准上进行了评估,显着优于最先进的多目标过滤算法,同时与其他跟踪方法相比提供了有竞争力的结果:所提出的方法分别在 MOT15 和 MOT16/17 数据集上生成平均 40.40 和 62.29 的最佳子模式的分配错误,同时,当使用公开可用的探测器,在 MOT16/17、PNNL 停车场和 PETS09 行人跟踪数据集上分别产生 62.0%、70.0% 和 66.9% 的多目标跟踪精度。 阅读全文
posted @ 2021-09-06 17:11 小艾shea 阅读(156) 评论(0) 推荐(0) 编辑
摘要:主要序列转导模型基于包括编码器(encoder)和解码器(decoder)的复杂递归或卷积神经网络。 性能最佳的模型还通过注意机制连接编码器和解码器。 我们提出了一种新的简单网络架构,Transformer,完全基于注意机制,完全免除递归和卷积。 两个机器翻译任务的实验表明,这些模型质量优越,同时可以更加并行化,并且需要更少的时间进行训练。我们的模型在WMT 2014英语 - 德语翻译任务中达到28.4BLEU,超过现有的最佳成绩,包括集成,超过2 BLEU。在WMT 2014英语到法语翻译任务中,我们的模型在8个GPU上训练3.5天后,建立了一个新的单模型最新BLEU分数41.8,这是最好的训练成本的一小部分文献中的模型。 阅读全文
posted @ 2021-02-02 19:04 小艾shea 阅读(432) 评论(0) 推荐(0) 编辑
摘要:摘要 我们提出了一种新的称为BERT的语言表示模型,BERT代表来自Transformer的双向编码器表示(Bidirectional Encoder Representations from Transformers)。不同于最近的语言表示模型(Peters et al., 2018,Radfor 阅读全文
posted @ 2021-02-01 17:00 小艾shea 阅读(786) 评论(0) 推荐(0) 编辑
摘要:摘要 我们提出了一种新的目标检测方法YOLO。与以前关于目标检测的工作重新设置分类器来执行检测的方法不同,我们将目标检测作为回归问题,构建空间上分离的边界框和相关的类别概率。单个神经网络在一次评估中直接从完整图像预测边界框和类别概率。由于整个检测流程是单一网络,因此可以直接在检测性能上进行端到端的优 阅读全文
posted @ 2021-02-01 10:51 小艾shea 阅读(398) 评论(0) 推荐(0) 编辑
摘要:The future of computing and wisdom: Insights from Human–Computer Interaction Daniel Sapiens Pargman Elina Eriksson Oliver Bates , Ben Kirman , Rob Com 阅读全文
posted @ 2021-01-30 16:22 小艾shea 阅读(205) 评论(0) 推荐(0) 编辑
摘要:原文: 《A Decision Variable Clustering-Based Evolutionary Algorithm for Large-Scale Many-Objective Optimization》 将分为论文摘要、背景介绍、算法原理、实验结果分析和总结五个部分 摘要 当前的进化 阅读全文
posted @ 2021-01-30 16:17 小艾shea 阅读(2064) 评论(0) 推荐(0) 编辑

Live2D
欢迎阅读『论文翻译及笔记』
点击右上角即可分享
微信分享提示