摘要:
写完昨天那篇GNN博客,我其实觉得有些困惑,为什么? 首先,我在那篇博客里讲了什么是GNN层,就是一个用来处理图这种数据结构的神经网络,具体来说,就是保留点与边关系不发生变化,而单独对点、边以及图的特征做单独的处理,比较简单的方法就是使用三个MLP,分别让所有的点、边各自共享两个MLP,整张图单独使 阅读全文
摘要:
很久之前,我刚开始接触神经网络的时候,就有这么一句传闻——“不要碰图神经网络,会变得不幸!” 为什么?我今天就带你了解一下。 基本知识 首先,我们看一下图神经网络在学习一个图的时候,到底是一个什么过程: 可以看到,这个例子给的和传统的卷积网络类似,我们层与层之间只是学习点的1近邻的内容,但是随着层的 阅读全文
摘要:
1、版本问题 老师新买的这台机器是RTX 3060,没动显卡驱动,直接安装的CUDA,装的11.4,完全按照这篇blog来的,非常舒服:https://blog.csdn.net/qq_45041871/article/details/127950087 问题在于,cuda 11.4 在pytorc 阅读全文
摘要:
论文名称:ScanRefer: 3D Object Localization in RGB-D Scans using Natural Language 这篇文章最主要的工作,我觉得是两个,第一,提出了一个问题;第二,比较简单地解决了这个问题。 Project page: https://daver 阅读全文
摘要:
Word2Vec Word2Vec 是 google 在2013年提出的词向量模型,通过 Word2Vec 可以用数值向量表示单词,且在向量空间中可以很好地衡量两个单词的相似性。 简述 我们知道,在使用神经网络处理数据的时候,神经网络只能处理数字向量或者矩阵,他不可能理解文本、图像本身。那么,图像是 阅读全文
摘要:
BERT是NLP领域让预训练这件事情出圈的工作。 开篇Introduction介绍了两类主流的预训练方法: 1、feature-based,即基于特征的,即我首先通过预训练得到一些比较好的特征,然后将这些特征作为额外的训练数据输入到模型中,从而使得模型在训练起来变得容易很多; 2、fine-tuni 阅读全文
摘要:
导师为我配了一台机器,如下: 处理器:英特尔 酷睿 i5-12600KF 盒装 1659元https://item.taobao.com/item.htm?id=659339140098&ns=1&abbucket=18 主板:铭瑄电竞之心 Z690M 挑战者 799元https://detail. 阅读全文
摘要:
3D Visual Grounding 在看到相关论文的时候,我有一种非常严重的直觉——我的博士课题大概就是做这个了,虽然还没找老师聊。 简要解释:在这个任务中,研究者的主要目标是探索如何利用图像和自然语言文本之间的语义关系,从而实现跨模态信息的理解和应用。比如,可以通过将自然语言中的描述和图像中的 阅读全文
摘要:
参考: https://zhuanlan.zhihu.com/p/467913475 3D Visual Grounding小白调研笔记 https://zhuanlan.zhihu.com/p/34656727 zero-shot learning 入门 https://blog.csdn.net 阅读全文
摘要:
搭集群最烦的就是,显卡驱动和CUDA的问题,此前我都是命令行装的,直到,凯东哥教了我一个非常方便、傻瓜的方法,我以后再用命令行装我就是狗!! 非常的简单!在Setting里找到software & updates,在里面选Additional Drivers,找到NVIDIA,它提供了很多自动更新的 阅读全文