随笔分类 -  人工智能

摘要:在第5次AI TIME PhD Debate上,笔者邀请了部分国内外语义解析领域的杰出华人学者共话语义解析的过去,现状和未来。本博客为笔者根据视频讨论总结的干货整理。 阅读全文
posted @ 2021-10-18 13:40 SivilTaram 阅读(5241) 评论(0) 推荐(3) 编辑
摘要:pytorch 为了节省显存,在反向传播的过程中只针对计算图中的叶子结点(leaf variable)保留了梯度值(gradient)。但对于开发者来说,有时我们希望探测某些中间变量(intermediate variable) 的梯度来验证我们的实现是否有误,这个过程就需要用到 tensor的 接 阅读全文
posted @ 2019-09-17 15:19 SivilTaram 阅读(13818) 评论(0) 推荐(1) 编辑
摘要:本文简要介绍了做图分类等图上任务时,该如何从结点表示得到图的表示。 阅读全文
posted @ 2019-09-07 17:43 SivilTaram 阅读(34994) 评论(22) 推荐(4) 编辑
摘要:在本篇中,我们将着大量笔墨介绍图卷积神经网络中的卷积操作。接下来,我们将首先介绍一下图卷积神经网络的大概框架,借此说明它与基于循环的图神经网络的区别。接着,我们将从头开始为读者介绍卷积的基本概念,以及其在物理模型中的涵义。最后,我们将详细地介绍两种不同的卷积操作,分别为空域卷积和时域卷积,与其对应的经典模型。读者不需有任何信号处理方面的基础,傅里叶变换等概念都会在本文中详细介绍。 阅读全文
posted @ 2019-06-09 22:31 SivilTaram 阅读(111946) 评论(71) 推荐(18) 编辑
摘要:笔者最近看了一些图与图卷积神经网络的论文,深感其强大,但一些Survey或教程默认了读者对图神经网络背景知识的了解,对未学过信号处理的读者不太友好。同时,很多教程只讲是什么,不讲为什么,也没有梳理清楚不同网络结构的区别与设计初衷(Motivation)。 因此,本文试图沿着图神经网络的历史脉络,从最早基于不动点理论的图神经网络(Graph Neural Network, GNN)一步步讲到当前用得最火的图卷积神经网络(Graph Convolutional Neural Network, GCN), 期望通过本文带给读者一些灵感与启示。 阅读全文
posted @ 2019-06-09 12:26 SivilTaram 阅读(130131) 评论(59) 推荐(46) 编辑
摘要:Graph 本次学术前沿讲座由 "邵斌" 老师主讲,标题已经揭示了主题:Graph。1.5h的talk,听完自觉意犹未尽。本来以为是一节自己没接触过的图形学的talk,没想到讲的很多内容都跟自己学过的很多东西能Match。这里记录了一些笔记与各位分享,希望各位园友一起跟着邵斌老师来感受一下Graph 阅读全文
posted @ 2016-08-05 13:29 SivilTaram 阅读(1133) 评论(0) 推荐(2) 编辑

主题色彩
点击右上角即可分享
微信分享提示