会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Hisi
博客园
首页
新随笔
联系
订阅
管理
随笔 - 57
文章 - 0
评论 - 0
阅读 -
35038
2022年10月
如何简便理解梯度向量的计算公式?
摘要: 什么是梯度向量 在定义域为n维的空间中,给定一个函数
F
:
R
n
→
R
F
:
R
n
→
R
,梯度向量这个向量为n-1维的向量,代表着函数
F
F
在某一点
p
p
,
p
p
应该往哪个方向走,使得函数
F
F
的增长最快。即,那个方向,函数
F
F
的定义域内,从点
p
p
出发的那个向量,为梯度。 the vec
阅读全文
posted @ 2022-10-20 22:26 Hisi
阅读(2390)
评论(0)
推荐(0)
编辑
用一个例子理解拉格朗日乘数法解决等式约束优化问题
摘要: 首先我们来看看一个实例:
m
i
n
f
(
x
,
y
)
=
x
2
+
y
2
s
.
t
.
x
y
=
3
m
i
n
f
(
x
,
y
)
=
x
2
+
y
2
s
.
t
.
x
y
=
3
即:在定义域
x
y
=
3
x
y
=
3
内,求
f
(
x
,
y
)
f
(
x
,
y
)
的最小值。 两个函数的图像如下:
z
=
x
2
+
y
2
z
=
x
2
+
y
2
x
y
=
3
x
y
=
3
让我们把两个
阅读全文
posted @ 2022-10-03 09:41 Hisi
阅读(677)
评论(0)
推荐(0)
编辑
用实例并可视化去理解拉格朗日对偶函数的凹性质
摘要: 考虑约束最优化问题:
m
i
n
f
(
x
)
s
.
t
.
c
i
(
x
)
≤
0
,
i
=
1
,
2
,
.
.
.
,
l
,
h
i
(
x
)
=
0
,
i
=
l
+
1
,
l
+
2
,
.
.
.
,
n
m
i
n
f
(
x
)
s
.
t
.
c
i
(
x
)
≤
0
,
i
=
1
,
2
,
.
.
.
,
l
,
h
i
(
x
)
=
0
,
i
=
l
+
1
,
l
+
2
,
.
.
.
,
n
拉格朗日化后为: $$ \begin{alig
阅读全文
posted @ 2022-10-03 09:06 Hisi
阅读(197)
评论(0)
推荐(0)
编辑
2022年9月
联立方程组的妙处(为什么要联立方程组)
摘要: 假设有以下方程组:
x
y
=
3
,
y
=
x
x
y
=
3
,
y
=
x
他们的图像如下: 如果我们要找到同时满足两个等式的点,该怎么做呢? 也许会想到联立方程组,但是为什么联立呢?或许在我说之前,还想不到要联立。 我们知道,满足式
x
y
=
3
x
y
=
3
的点都在上图
阅读全文
posted @ 2022-09-26 20:46 Hisi
阅读(841)
评论(0)
推荐(0)
编辑
SVM公式详尽推导,没有思维跳跃。
摘要: 假定数据集
T
=
(
x
1
,
y
1
)
,
(
x
2
,
y
2
)
,
.
.
.
,
(
x
n
,
y
n
)
,
x
n
∈
R
k
,
y
n
∈
1
,
−
1
T
=
(
x
1
,
y
1
)
,
(
x
2
,
y
2
)
,
.
.
.
,
(
x
n
,
y
n
)
,
x
n
∈
R
k
,
y
n
∈
1
,
−
1
线性可分,SVM的优化目标是:优化一个超平面的参数,使得这个超平面,能够正确划分两类数据,并且,距离(动词),两类数据最近的那个点,的距离最大。 tip:
阅读全文
posted @ 2022-09-24 23:14 Hisi
阅读(668)
评论(0)
推荐(0)
编辑
高维空间中,点的超平面的距离
摘要: 首先来看看三维的: 如下图所示,在三维空间中,假设平面
U
=
x
∈
R
3
|
0
=
W
T
⋅
x
+
b
,
b
∈
R
,
W
∈
R
2
U
=
x
∈
R
3
|
0
=
W
T
·
x
+
b
,
b
∈
R
,
W
∈
R
2
,
W
W
为
U
U
的法向量;平面外一点
X
X
,
U
U
内一点
X
′
X
′
,那么
X
X
到
U
U
的距离为: $$ \begin{aligned} L &= |X-X'|
阅读全文
posted @ 2022-09-24 11:23 Hisi
阅读(192)
评论(0)
推荐(0)
编辑
向量内积和向量点积的关系及点积的几何意义。
摘要: 以二维为例子: 首先,向量内积的定义为:
a
⋅
b
=
|
a
|
|
b
|
c
o
s
θ
(1.1)
(1.1)
a
·
b
=
|
a
|
|
b
|
c
o
s
θ
其中,
a
=
(
a
1
,
a
2
)
b
=
(
b
1
,
b
2
)
a
=
(
a
1
,
a
2
)
b
=
(
b
1
,
b
2
)
根据余弦定理: $$ cos\theta = \frac{|b|^2+|a|^2-
阅读全文
posted @ 2022-09-23 10:19 Hisi
阅读(837)
评论(0)
推荐(0)
编辑
超平面详解
摘要: 参考文献 [1] https://blog.csdn.net/denghecsdn/article/details/77313758 以下是我阅读其之后的一些总结。 超平面的定义 n 维空间中的超平面由下面的方程确定[1]:
w
T
x
+
b
=
0
w
T
x
+
b
=
0
其中, $$ \begin{aligned}
阅读全文
posted @ 2022-09-23 08:49 Hisi
阅读(440)
评论(0)
推荐(0)
编辑
self-attention为什么要除以根号d_k
摘要: 参考文章: https://blog.csdn.net/tailonh/article/details/120544719 正如上文所说,原因之一在于: 1、首先要除以一个数,防止输入softmax的值过大,导致偏导数趋近于0; 2、选择根号d_k是因为可以使得q*k的结果满足期望为0,方差为1的分
阅读全文
posted @ 2022-09-20 08:40 Hisi
阅读(4860)
评论(0)
推荐(0)
编辑
数学期望和方差的定义和一些性质
摘要: 数学期望的定义: 离散型:
E
(
X
)
=
+
∞
∑
i
=
−
∞
p
i
x
i
E
(
X
)
=
∑
i
=
−
∞
+
∞
p
i
x
i
连续型:
E
(
X
)
=
∫
+
∞
−
∞
f
(
x
)
x
d
x
E
(
X
)
=
∫
−
∞
+
∞
f
(
x
)
x
d
x
其中,
f
(
x
)
f
(
x
)
为概率密度函数。 连续型的表达式可以由离散型的表达式推导得到:
阅读全文
posted @ 2022-09-19 22:09 Hisi
阅读(1366)
评论(0)
推荐(0)
编辑
下一页
公告
昵称:
Hisi
园龄:
3年1个月
粉丝:
0
关注:
0
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
随笔分类
Linux运维(3)
NLP通经脉(40)
python基础(2)
机器学习(1)
数据分析(1)
数学基础(7)
智能计算(1)
随笔档案
2022年10月(3)
2022年9月(10)
2022年8月(5)
2022年7月(5)
2022年6月(1)
2022年5月(3)
2022年4月(6)
2022年3月(6)
2022年2月(5)
2022年1月(13)
阅读排行榜
1. self-attention为什么要除以根号d_k(4860)
2. ansible中的hostvars(4322)
3. 单机多卡、多机多卡的艺术(2563)
4. 如何简便理解梯度向量的计算公式?(2390)
5. pytorch 矩阵批量转置(torch.permute)(1853)
推荐排行榜
1. 从乘法求导法则到BPTT算法(1)
点击右上角即可分享