上一页 1 2 3 4 5 6 ··· 37 下一页
摘要: sched_class 在 Linux 中有多种不同的调度策略,每一种调度策略都由不同的调度器类实现,在 sched_class 中定义了调度器需要实现的接口。 struct sched_class { const struct sched_class *next; void (*enqueue_t 阅读全文
posted @ 2022-03-07 11:34 Kayden_Cheung 阅读(153) 评论(0) 推荐(0) 编辑
摘要: list_head 在 Linux 内核中是通过链表的形式来管理进程的,其定义非常简单(/include/linux/list.h): struct list_head { struct list_head *next, *prev; }; 只有两个指针,不包含其他数据,那怎么通过 list_hea 阅读全文
posted @ 2022-03-06 12:04 Kayden_Cheung 阅读(110) 评论(0) 推荐(0) 编辑
摘要: 左值、右值 1 左值是表达式结束后依然存在的持久对象。 2 右值是表达式结束后不再存在的临时对象。 简单来说,能取地址的是左值,否则就是右值。 右值引用的意义 实现移动语义和完美转发。 移动语义:可以用廉价的移动操作来代替昂贵的拷贝操作。 完美转发:将实参转发到其他的函数,使目标函数接收到的实参与被 阅读全文
posted @ 2022-02-25 09:58 Kayden_Cheung 阅读(96) 评论(0) 推荐(0) 编辑
摘要: 假设现在有一个程序包含 2 个变量:data1、data2 和 2 个函数:func1、func2,找到其地址与数值的过程如下: 1 根据文件头结构 Elf64_Ehdr 中的 e_shoff 得知段表的位置。 2 根据段描述符结构 Elf64_Shdr 中的 sh_offset 得知每个段距离 E 阅读全文
posted @ 2022-02-17 16:17 Kayden_Cheung 阅读(125) 评论(0) 推荐(0) 编辑
摘要: 概率图模型 这篇文章主要想总结一下朴素贝叶斯、最大熵、隐马尔可夫和条件随机场这四个概率图模型之间的一些联系与区别。朴素贝叶斯假设条件独立性,在给定目标值 $y$ 时,$x$ 之间是相互独立的,对于序列来说,它不会去考虑单个位置之间的相互依赖。隐马尔可夫假设观测序列在连续相邻位置间的状态存在依赖,它的 阅读全文
posted @ 2021-12-14 14:02 Kayden_Cheung 阅读(189) 评论(0) 推荐(0) 编辑
摘要: 什么是内存池? 在上一篇 C++内存管理:new / delete 和 cookie 中谈到,频繁的调用 malloc 会影响运行效率以及产生额外的 cookie, 而内存池的思想是预先申请一大块内存,当有内存申请需求时,从内存池中取出一块内存分配给目标对象。 它的实现过程为: 预先申请 chunk 阅读全文
posted @ 2021-12-13 20:27 Kayden_Cheung 阅读(606) 评论(0) 推荐(0) 编辑
摘要: new 和 delete C++的内存申请和释放是通过 new 和 delete 实现的, 而new 和 delete 其实就是通过 malloc 和 free 实现的。 new 申请内存分为三个步骤: 调用 operator new 函数分配目标类型的内存大小,operator new 函数内部就 阅读全文
posted @ 2021-12-13 14:20 Kayden_Cheung 阅读(599) 评论(0) 推荐(0) 编辑
摘要: 代码就是侯捷老师的代码,包括了最基础的构造函数、拷贝构造函数和拷贝赋值函数。 String.h #pragma once #include<string.h> #ifndef STRING_H #define STRING_H class String { public: String(const 阅读全文
posted @ 2021-09-19 21:55 Kayden_Cheung 阅读(87) 评论(0) 推荐(0) 编辑
摘要: 进入虚拟环境后: conda install ipykernel conda install nb_conda 阅读全文
posted @ 2021-07-21 15:52 Kayden_Cheung 阅读(92) 评论(0) 推荐(0) 编辑
摘要: ① def encode_onehot(labels): classes = set(labels) classes_dict = {c: np.identity(len(classes))[i, :] for i, c in enumerate(classes)} labels_onehot = 阅读全文
posted @ 2021-03-08 18:51 Kayden_Cheung 阅读(758) 评论(0) 推荐(0) 编辑
摘要: GraphSAGE 之前所接触的都是直推式学习,也就是仅仅考虑了当前数据,直接计算出节点的embedding,一旦数据变更后,则需要重新训练。 而GraphSAGE则是一种归纳式学习,也就是说它的目标是训练得到权重矩阵的参数。 计算节点 \(v\) 第 \(k\) 层的 embedding 流程为: 阅读全文
posted @ 2021-03-07 20:11 Kayden_Cheung 阅读(264) 评论(0) 推荐(0) 编辑
摘要: 将Ubuntu默认的python2改为python3 首先删除原有的python连接文件: rm /usr/bin/python 然后建立指向python3.6的软连接: ln -s /usr/bin/python3.5 /usr/bin/python 之后把路径/usr/bin/加入环境变量PAT 阅读全文
posted @ 2021-01-14 17:15 Kayden_Cheung 阅读(126) 评论(0) 推荐(0) 编辑
摘要: 更换清华源的时候,这三个都需要加上 conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ conda config --add channels https://mirrors.tun 阅读全文
posted @ 2020-12-19 20:34 Kayden_Cheung 阅读(288) 评论(0) 推荐(0) 编辑
摘要: 转自怎么理解推荐系统中的NDCG? CG CG(cumulative gain,累计增益)可以用于评价基于打分/评分的个性推荐系统。假设我们推荐k个物品,这个推荐列表的CGk计算公式如下: \(CG_k=\sum_{i=1}^k \text{rel}_i\) \(rel_i\) 表示第 \(k\) 阅读全文
posted @ 2020-12-04 15:35 Kayden_Cheung 阅读(607) 评论(0) 推荐(0) 编辑
摘要: 以一张图片作为开始吧: 这里的输入数据是大小为(8×8)的彩色图片,其中每一个都称之为一个feature map,这里共有3个。所以如果是灰度图,则只有一个feature map。 进行卷积操作时,需要指定卷积核的大小,图中卷积核的大小为3,多出来的一维3不需要在代码中指定,它会自动扩充至图片的ch 阅读全文
posted @ 2020-12-03 22:38 Kayden_Cheung 阅读(3421) 评论(0) 推荐(0) 编辑
摘要: 当然,这只是其中的一种映射。 阅读全文
posted @ 2020-11-11 20:12 Kayden_Cheung 阅读(449) 评论(0) 推荐(0) 编辑
摘要: 该论文提出了一个称为KBRD的框架,它是一个基于知识图谱的推荐对话系统。 首先需要做的就是知识图谱的实体链接,论文中使用到了DBpedia,将对话中出现的items以及non-item entities与DBpedia中的实体链接起来。通过知识图谱,我们也许可以发现这些non-items的内容可能与 阅读全文
posted @ 2020-10-30 20:51 Kayden_Cheung 阅读(276) 评论(0) 推荐(0) 编辑
摘要: 引入 数据下载:传送门 这个教程的任务目标是将输入的法文翻译成英文。因为翻译前后句子可能不等长,所以用之前的RNN、LSTM就不太合适,所以这里就是用的Encoder-Decoder结构。其结构如下图所示: 数据处理 所需要的库: from __future__ import unicode_lit 阅读全文
posted @ 2020-10-22 14:17 Kayden_Cheung 阅读(594) 评论(0) 推荐(0) 编辑
摘要: torch.cat的作用是对张量按行或列进行拼接。在使用的过程中我也碰到了一些需要注意的点。 import torch x = torch.rand((4,5)) print(x) tmp = torch.Tensor() for i in range(4): if i%2 == 0: tmp = 阅读全文
posted @ 2020-10-13 11:02 Kayden_Cheung 阅读(554) 评论(0) 推荐(0) 编辑
摘要: 花书第10.2.2节的计算循环神经网络的梯度看了好久,总算是把公式的推导给看懂了,记录一下过程。 首先,对于一个普通的RNN来说,其前向传播过程为: $$\textbf{a}^{(t)}=\textbf{b}+\textbf{Wh}^{t-1}+\textbf{Ux}^{(t)}$$ $$\text 阅读全文
posted @ 2020-10-11 14:48 Kayden_Cheung 阅读(458) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 37 下一页
//目录