Processing math: 100%

随笔分类 -  ML / DL

摘要:概率图模型 这篇文章主要想总结一下朴素贝叶斯、最大熵、隐马尔可夫和条件随机场这四个概率图模型之间的一些联系与区别。朴素贝叶斯假设条件独立性,在给定目标值 y 时,x 之间是相互独立的,对于序列来说,它不会去考虑单个位置之间的相互依赖。隐马尔可夫假设观测序列在连续相邻位置间的状态存在依赖,它的 阅读全文
posted @ 2021-12-14 14:02 Kayden_Cheung 阅读(226) 评论(0) 推荐(0) 编辑
摘要:① def encode_onehot(labels): classes = set(labels) classes_dict = {c: np.identity(len(classes))[i, :] for i, c in enumerate(classes)} labels_onehot = 阅读全文
posted @ 2021-03-08 18:51 Kayden_Cheung 阅读(779) 评论(0) 推荐(0) 编辑
摘要:GraphSAGE 之前所接触的都是直推式学习,也就是仅仅考虑了当前数据,直接计算出节点的embedding,一旦数据变更后,则需要重新训练。 而GraphSAGE则是一种归纳式学习,也就是说它的目标是训练得到权重矩阵的参数。 计算节点 vk 层的 embedding 流程为: 阅读全文
posted @ 2021-03-07 20:11 Kayden_Cheung 阅读(303) 评论(0) 推荐(0) 编辑
摘要:以一张图片作为开始吧: 这里的输入数据是大小为(8×8)的彩色图片,其中每一个都称之为一个feature map,这里共有3个。所以如果是灰度图,则只有一个feature map。 进行卷积操作时,需要指定卷积核的大小,图中卷积核的大小为3,多出来的一维3不需要在代码中指定,它会自动扩充至图片的ch 阅读全文
posted @ 2020-12-03 22:38 Kayden_Cheung 阅读(3565) 评论(0) 推荐(0) 编辑
摘要:当然,这只是其中的一种映射。 阅读全文
posted @ 2020-11-11 20:12 Kayden_Cheung 阅读(453) 评论(0) 推荐(0) 编辑
摘要:torch.cat的作用是对张量按行或列进行拼接。在使用的过程中我也碰到了一些需要注意的点。 import torch x = torch.rand((4,5)) print(x) tmp = torch.Tensor() for i in range(4): if i%2 == 0: tmp = 阅读全文
posted @ 2020-10-13 11:02 Kayden_Cheung 阅读(572) 评论(0) 推荐(0) 编辑
摘要:花书第10.2.2节的计算循环神经网络的梯度看了好久,总算是把公式的推导给看懂了,记录一下过程。 首先,对于一个普通的RNN来说,其前向传播过程为: a(t)=b+Wht1+Ux(t) $$\text 阅读全文
posted @ 2020-10-11 14:48 Kayden_Cheung 阅读(492) 评论(0) 推荐(0) 编辑
摘要:LSTM 参数 input_size:输入维数 hidden_size:输出维数 num_layers:LSTM层数,默认是1 bias:True 或者 False,决定是否使用bias, False则b_h=0. 默认为True batch_first:True 或者 False,因为nn.lst 阅读全文
posted @ 2020-10-09 16:31 Kayden_Cheung 阅读(3734) 评论(0) 推荐(1) 编辑
摘要:在RNN模型的训练过程中,需要用到词嵌入,而torch.nn.Embedding就提供了这样的功能。我们只需要初始化torch.nn.Embedding(n,m),n是单词数,m就是词向量的维度。 一开始embedding是随机的,在训练的时候会自动更新。 举个简单的例子: word1和word2是 阅读全文
posted @ 2020-10-09 15:15 Kayden_Cheung 阅读(1771) 评论(0) 推荐(1) 编辑
摘要:数据处理 传送门:官方教程 数据从上面下载。本次的任务用到的数据和第一次一样,还是18个不同国家的不同名字。 但这次需要根据这些数据训练一个模型,给定国家和名字的首字母时,模型可以自动生成名字。 首先还是对数据进行预处理,和第一个任务一样,利用Unicode将不同国家的名字采用相同的编码方式,因为要 阅读全文
posted @ 2020-10-04 08:51 Kayden_Cheung 阅读(655) 评论(0) 推荐(0) 编辑
摘要:数据处理 数据可以从传送门下载。 这些数据包括了18个国家的名字,我们的任务是根据这些数据训练模型,使得模型可以判断出名字是哪个国家的。 一开始,我们需要对名字进行一些处理,因为不同国家的文字可能会有一些区别。 在这里最好先了解一下Unicode:可以看看:Unicode的文本处理二三事 NLP哪里 阅读全文
posted @ 2020-10-03 13:04 Kayden_Cheung 阅读(555) 评论(0) 推荐(0) 编辑
摘要:代码 # -*- coding: utf-8 -*- import numpy as np # N是批量大小; D_in是输入维度; # 49/5000 H是隐藏的维度; D_out是输出维度。 N, D_in, H, D_out = 64, 1000, 100, 10 # 创建随机输入和输出数据 阅读全文
posted @ 2020-09-27 20:39 Kayden_Cheung 阅读(1000) 评论(0) 推荐(0) 编辑
摘要:问题引入 使用cnn进行食物分类,给出的图片如上所示,前面的是分类,后面的是编号。 数据处理 首先读入图片,并进行缩放处理,使像素数相同。 def readfile(path, flag): """ :param path: 图片所在文件夹位置 :param flag: 1:训练集或验证集 0:测试 阅读全文
posted @ 2020-09-25 23:25 Kayden_Cheung 阅读(1656) 评论(0) 推荐(0) 编辑
摘要:今天被这个问题折腾了好几个小时,难受。 如果我们读取了图片之后又想把它显示出来,那么存储的数据格式必须为np.uint8,否则之后是显示不出来的。 如下形式: x = np.zeros((len(image_dir), 128, 128, 3), dtype=np.uint8) 阅读全文
posted @ 2020-09-24 16:21 Kayden_Cheung 阅读(2556) 评论(0) 推荐(0) 编辑
摘要:问题引入 很简单,就是二分类问题。 数据处理 首先读入数据 def read_file(): """读入数据""" x_train = pd.read_csv('X_train.csv') x_train = x_train.iloc[:, 1:].to_numpy() y_train = pd.r 阅读全文
posted @ 2020-09-20 21:14 Kayden_Cheung 阅读(653) 评论(0) 推荐(0) 编辑
摘要:直接上李宏毅老师上课时的总结: 阅读全文
posted @ 2020-09-19 15:07 Kayden_Cheung 阅读(387) 评论(0) 推荐(0) 编辑
摘要:问题引入 作业所给的数据是某地的观测记录,每个月取前20天的数据,观测数据共有18个指标,每小时记录这18个指标的值,共记录12个月。 现在从剩下的资料中取出连续的9小时的观测数据,请预测第10个小时的PM2.5指标的值。 数据处理 先将csv文件内容读入进来,首先需要注意的是RAINFALL指标还 阅读全文
posted @ 2020-09-19 09:40 Kayden_Cheung 阅读(816) 评论(0) 推荐(0) 编辑
摘要:参考: [1] 机器学习-白板推导系列(五)-降维(Dimensionality Reduction) 阅读全文
posted @ 2019-04-15 20:31 Kayden_Cheung 阅读(149) 评论(0) 推荐(0) 编辑
摘要:参考: [1] 机器学习-白板推导系列(五)-降维(Dimensionality Reduction) 阅读全文
posted @ 2019-04-15 17:16 Kayden_Cheung 阅读(207) 评论(0) 推荐(0) 编辑
摘要:传送门 阅读全文
posted @ 2019-04-09 20:39 Kayden_Cheung 阅读(235) 评论(0) 推荐(0) 编辑

//目录
点击右上角即可分享
微信分享提示