次梯度算法小实例

上一篇博客中,我们介绍了次梯度,本篇博客,我们将用它来求解优化问题。

优化目标函数:

min12||Axb||22+μ||x||1

已知A,b,设定一个μ值,此优化问题表示用数据矩阵A的列向量的线性组合去拟合目标向量b,并且解向量x需要尽量稀疏(因为L1范数限制)。

目标函数的次梯度g为:

次梯度迭代算法:xk+1=xkαggTg,下面代码中我们取系数α=0.01,但是张贤达的《矩阵分析与应用》第四章第5节第4小节指出,序列{αk}k=0必须递减:k,αk0. 下面的代码实践中,我们发现α一直取0.01,目标函数也能收敛。

需注意的是,次梯度算法不属于梯度下降法,因为次梯度算法不能保证f(xk)<f(xk1)

代码实现:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
import numpy as np
import matplotlib.pyplot as plt
 
m = 64
n = 128
A = np.random.randn(m, n)  # 随机生成数据矩阵
b = np.random.randn(m, 1# 随机生成目标向量
epoch = 150
v = 5e-1  # v为题目里面的mu
y = []
 
def f(x):
    '''目标函数'''
    return 1/2*np.dot((np.dot(A, x)-b).T, (np.dot(A, x)-b)) + v*sum(abs(x))
 
def g(x):
    '''次梯度,L1范数的次梯度直接用符号函数代替'''
    return np.dot(np.dot(A.T, A), x) - np.dot(A.T, b) + v*np.sign(x)
 
x0 = np.zeros((n, 1))  # 初始化解向量x
for i in range(epoch):
    y.append(f(x0)[0, 0])   # f(x0)是二维数据
    grad = g(x0)
    s = 0.01/np.sqrt(np.dot(grad.T, grad))
    x1 = x0 - s[0]*grad
    x0 = x1
 
plt.plot(range(epoch), y)
plt.show()

运行结果:

可以看到,收敛效果不错。

 -------------------------------------------------------------------------------------------------------------------------------

μ值的影响分析

目标函数中,第一项衡量拟合的质量,第二项衡量解向量x的稀疏程度,μ值平衡这两项的重要性,改变μ值,对解向量有一定影响:

   

这两个图是解向量x=(x1,x2,...,x128)的值图,比较这两图可以看到,μ越大,解向量x=(x1,x2,...,x128)越多分量为零,即越稀疏。

 

参考资料:subgradient(次梯度算法)

posted @   Picassooo  阅读(2012)  评论(0编辑  收藏  举报
编辑推荐:
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
阅读排行:
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 单元测试从入门到精通
点击右上角即可分享
微信分享提示