摘要:
前几篇博文中介绍了Transformer,由于其优越的性能表现,在工业界使用的越来越广泛,同时,配合迁移学习理论,越来越多的Transformer预训练模型和源码库逐渐开源,Huggingface就是其中做的最为出色的一家机构。Huggingface是一家在NLP社区做出杰出贡献的纽约创业公司,其所提供的大量预训练模型和代码等资源被广泛的应用于学术研究当中。Huggingface所开源的Transformers提供了数以千计针对于各种任务的预训练模型模型,开发者可以根据自身的需要,选择模型进行训练或微调,也可阅读api文档和源码, 快速开发新模型。 阅读全文
摘要:
训练模型过程中,经常需要追踪一些性能指标的变化情况,以便了解模型的实时动态,例如:回归任务中的MSE、分类任务中的Accuracy、生成对抗网络中的图片、网络模型结构可视化…… 除了追踪外,我们还希望能够将这些指标以动态图表的形式可视化显示出来。
TensorFlow的附加工具Tensorboard就完美的提供了这些功能。不过现在经过Pytorch团队的努力,TensorBoard已经集成到了Pytorch中,只要安装有pytorch也可以直接使用TensorBoard。
Tensorboard同时提供了后端数据记录功能和前端数据可视化功能。通过后端数据记录功能,我们可以将需要追踪的性能指标写入到指定文件;通过前端数据可视化功能,我们可是实时查看当前训练情况。 阅读全文
摘要:
古语有言:“它山之石可以攻玉”,迁移学习就是这么一种思想,将在其他训练集上训练好的神经网络迁移到目标任务上。自打迁移学习的思想提出后,在工业实践上,就很少有人会从头开始(随机初始化)训练网络。 阅读全文
摘要:
2017年6月谷歌发布论文《Attention is All You Need》,提出Transformer这一引燃机器学习领域的算法。数年过去,Transformer算法在计算机视觉、自然语言处理等众多应用领域展现了极为惊艳的表现。
大家都是神经网络,为何你的腰椎间盘却如此突出?
可以说,Transformer是完全基于自注意力机制的一个深度学习模型,且适用于并行化计算,导致它在精度和性能上都要高于之前流行的RNN循环神经网络。
在接下来的篇幅中,我们来详细梳理Transformer算法各个细枝末节原理,并结合B站视频教程:【Transformer为什么比CNN好!】中的代码实现,展示Transformer的整个建模流程。 阅读全文
摘要:
vue:计算属性 阅读全文
摘要:
Vue中,绑定点击事件用v-on:实现,例如绑定鼠标点击事件用v-on:click="fun"实现,绑定键盘回车键按下事件用v-on:keydown.enter="fun"实现,其中“fun”是点击事后后的回调方法。v-on:可以简写为“@”,例如@click="fun"、@keyup.enter="fun"。 阅读全文
摘要:
我们对一个Object对象设置属性时,一般是通过对象的.操作符或者[]操作符直接赋值的,例如obj1.a = 1 或 obj1['a'] = 1,通过这种方式添加的属性后续可以更改属性值,并且默认该属性是可枚举的,即通过for (const key in obj1) 或 obj1.keys()均可访问到属性。如果我们想在新增属性后不允许再更改属性值或者将该属性设置为非枚举属性,那我们该如何处理呢? 阅读全文
摘要:
Vue实例与指令 阅读全文
摘要:
Vue (读音 /vjuː/,类似于 view) 是一套用于构建用户界面的渐进式框架。与其它大型框架不同的是,Vue 被设计为可以自底向上逐层应用。Vue 的核心库只关注视图层,不仅易于上手,还便于与第三方库或既有项目整合。另一方面,当与现代化的工具链以及各种支持类库结合使用时,Vue 也完全能够为复杂的单页应用提供驱动。 阅读全文
摘要:
seaborn绘制多子图可视化 阅读全文