随笔分类 -  机器学习

摘要:什么是图神经网络? 在过去的几年中,神经网络的兴起与应用成功推动了模式识别和数据挖掘的研究。许多曾经严重依赖于手工提取特征的机器学习任务(如目标检测、机器翻译和语音识别),如今都已被各种端到端的深度学习范式(例如卷积神经网络(CNN)、长短期记忆(LSTM)和自动编码器)彻底改变了。有人将此次人工智 阅读全文
posted @ 2022-09-19 15:41 (´v`) 阅读(439) 评论(0) 推荐(0) 编辑
摘要:图嵌入的概述 图分析任务的分类 节点分类:基于其他标记的节点和网络拓扑来确定节点的标签(也称为顶点) 链接预测:预测缺失链路或未来可能出现的链路的任务 聚类:用于发现相似节点的子集,并将它们分组在一起 可视化:有助于深入了解网络结构 图嵌入算法:作为降维技术的一部分。他们首先根据实际问题构造一个D维 阅读全文
posted @ 2022-09-19 15:33 (´v`) 阅读(93) 评论(0) 推荐(0) 编辑
摘要:主要总结一下,项目可视化过程中的坑,以及解决方法 图片清晰的的设置 %config InlineBackend.figure_format = 'retina'#设置图片的高清度 %matplotlib inline #不需要指令plt.show() 读取txt文件 并进行处理 #names设置列名 阅读全文
posted @ 2022-07-19 20:20 (´v`) 阅读(48) 评论(0) 推荐(0) 编辑
摘要:丢弃法 动机:一个好的模型需要对输入进行扰动 使用有噪音得数据等价于Tikhonov正则 丢弃法:在层之间加入噪音 无偏差地加入噪音(加入噪音之后,期望不变) 正则项只在训练中使用:他们影响的是模型参数的更新,在预测/推理过程中,丢弃法直接返回输出 总结 丢弃法将一些输出项随机置0来控制模型的复杂度 阅读全文
posted @ 2022-04-05 11:21 (´v`) 阅读(20) 评论(0) 推荐(0) 编辑
摘要:DataLoader报错问题 感觉跟操作系统有一定关系,windows需要改为0,无法并行 将num_workers改为0 batch_size改得更小一点 更改虚拟机内存,直接搜索 OSError: [WinError 1455] 页面文件太小,无法完成操作 对d2l包的理解 之前写代码都没用这个 阅读全文
posted @ 2022-04-05 11:20 (´v`) 阅读(38) 评论(0) 推荐(0) 编辑
摘要:感知机(总结) 感知机是一个二分类模型,是最早的AI模型之一 它的求解算法等价于使用批量大小为1的梯度下降 它不能拟合XOR函数,导致第一次AI寒冬 多层感知机(总结) 超参数 隐藏层数 每层隐藏层的大小 神经网络设计的一些经验 逐步地对数据进行压缩,避免丧失过多信息 后面我们可以适当地扩张某一层的 阅读全文
posted @ 2022-04-05 11:20 (´v`) 阅读(71) 评论(0) 推荐(0) 编辑
摘要:AI地图 模型的可解释性 总的来说,我们的研究对于机器学习来说是有一些解释的,但是深度学习这一块还是没有太大研究 有效性和可解释性 有效性:我们能不能解释 可解释性:解释出来你能不能听懂(比如:模型在哪里会出现偏差) 线性回归 对loss.sum().backward()的理解: .backward 阅读全文
posted @ 2022-04-05 11:19 (´v`) 阅读(51) 评论(0) 推荐(0) 编辑
摘要:引言 pytorch的文档看过很多种,也看过许多autograd的文章,但总是有一种似懂非懂的感觉。但它又是pytorch较为核心的一个点,所以希望用一篇文章解决所有疑问! 基础 在深度学习中,我们经常需要对函数求梯度(gradient)。PyTorch提供的autograd包能够根据输入和前向传播 阅读全文
posted @ 2022-04-05 11:18 (´v`) 阅读(53) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示